
商傳媒|林昭衡/綜合外電報導
摘要
AI公司Anthropic正與五角大廈展開法律戰,起因是Anthropic的AI模型被列為供應鏈風險,阻礙其在機密環境中的應用。這項爭議不僅揭示了AI技術應用於國家安全時的倫理與監管挑戰,也凸顯矽谷創新文化與華府安全考量間的衝突。
美國人工智慧(AI)公司Anthropic與美國國防部(Pentagon,又稱五角大廈)之間,就Anthropic被列為「供應鏈風險」一事,正展開一場激烈的法律戰。這場爭議不僅凸顯了AI技術在國家安全應用上的複雜性,也暴露了矽谷「創新優先」與華府「安全優先」兩種思維模式之間的緊張關係。
根據《National Today》報導,此爭議核心在於五角大廈將Anthropic列為供應鏈風險,阻礙其AI模型「Claude」在機密環境中的應用。Anthropic為此於本月(2026年4月)向法院提起訴訟,試圖阻止這項禁令,主張此舉將對其聲譽和財務造成難以彌補的損害。
五角大廈的此項認定,被視為一種策略性措施,旨在加強對AI技術在機密場景中使用的控制,尤其考量到AI技術具備「軍民兩用」的特性。此事件亦突顯當前缺乏一套統一的AI法律框架,來規範這類新興科技的軍事應用與倫理挑戰。
在法律程序方面,一間舊金山法院曾於2026年5月裁定支持Anthropic,暫時中止了五角大廈對其AI模型Claude的禁令。然而,華盛頓特區聯邦上訴法院已在2026年6月推翻了舊金山法院的裁決,使得這場法律攻防戰仍在持續進行中。Anthropic發言人強調,該公司致力於確保美國人民能從安全可靠的AI技術中受益,以回應外界對AI系統可靠性的疑慮。
